iT邦幫忙

2024 iThome 鐵人賽

DAY 15
0
自我挑戰組

30天初探tensorflow之旅系列 第 15

Day 15 認識激勵函數

  • 分享至 

  • xImage
  •  

在更深入研究之前,我想先補一些前面沒有拉出來細讀的觀念或背景知識,有些小缺塊漏掉還是會影響對整體的了解,畢竟它們運作的模式也是一環扣一環。
線性回歸用於分析線性問題,而激勵函數通常就是處理非線性的任務,這讓神經網路可以處理更複雜的問題。
以下是幾種常見的激勵函數類型 :
1.Sigmoid函數:
https://ithelp.ithome.com.tw/upload/images/20240928/20169330HneqFDR1ha.png
https://ithelp.ithome.com.tw/upload/images/20240928/20169330BcmXZFxU5J.png
它常用於二分法,可以把輸出限制在0和1之間。雖然它是深度學習領域開始時使用頻率最高的激勵函數,卻存在著三大缺點:
(1)容易出現梯度消失(gradient vanishing)。

(2)函數輸出均值並沒有趨近於零的特性,表示它不是zero-centered 。

(3)指數運算較為耗時。

2.ReLU函數:
ReLU=max(0,x)
https://ithelp.ithome.com.tw/upload/images/20240928/20169330WGsc5F4hXw.png
均為正值,若值為負數,則輸出為0,計算簡單且高效,廣泛應用在隱藏層。它就有很多優點:
(1)解決梯度消失問題
(2)計算量大幅降低
(3)類神經網路的稀疏性

3.Leaky ReLU函數:
ReLU=max(0.01x,x)
https://ithelp.ithome.com.tw/upload/images/20240929/20169330agYrZGasjB.png
Leaky ReLU 是將 ReLU 前半段的輸出設為0.01x,這樣能防止值為負號時無法被激活的問題。理論上來說,Leaky ReLU 擁有 ReLU 所有優點,也避免負號值問題無法激活,但是使用上,無法完全證明Leaky ReLU永遠優於ReLU。

4.ELU函數:
https://ithelp.ithome.com.tw/upload/images/20240928/20169330sJOX5fARwV.png
它是為了解決ReLU的問題而被提出,像是在輸入負值時有提供非零的輸出,或是相較於ReLU,在訓練過程中能更快地收斂。它也一樣理論上來說繼承了 ReLU 所有優點,卻也同樣無法保證完全優於 ReLU。


上一篇
Day 14 Softmax 模型的訓練和評估
下一篇
Day 16 MNIST 手寫數字辨識(1)
系列文
30天初探tensorflow之旅30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言